ChatGPT lui invente une identité complètement dingue !
Arve Hjalmar Holmen, un père de famille norvégien, a été victime d’un récit fabriqué par ChatGPT, la célèbre IA d’Open AI. Après avoir entré son nom dans l’interface du chatbot, il s’est vu attribuer par celui-ci un passé criminel ignominieux, le dépeignant comme un meurtrier d’enfants. Cette histoire fictive, extrêmement détaillée, n’a pas manqué de provoquer un choc auprès de l’intéressé et de soulever des questions significatives sur la sécurité et la vie privée des utilisateurs d’IA.
La technologie face à la diffamation
La narration hallucinée de ChatGPT comportait des détails personnels spécifiques à la vie de Holmen, rendant la fausse accusation d’autant plus crédible et dangereuse. En réaction, l’organisation pour la protection de la vie privée, Noyb, a immédiatement porté plainte contre OpenAI, évoquant la nécessité de respecter le Règlement général sur la protection des données (RGPD). Leur préoccupation principale réside dans l’exigence d’exactitude des données et la possibilité de corriger rapidement les erreurs.
La législation sur la protection des données doit s’appliquer avec la même rigueur
Bien que l’erreur ait été corrigée en apparence – le chatbot ne répétant plus l’histoire fallacieuse – Holmen et Noyb continuent de réclamer un gage de certitude que ces fausses informations ont été véritablement supprimées des bases de données internes d’OpenAI. Ils mettent en avant le fait que la législation sur la protection des données doit s’appliquer avec la même rigueur aux données partagées qu’aux données stockées en interne.